Von Künstlicher Intelligenz wird erwartet, dass sie dem Menschen gegenüber rücksichtsvoll agiert. Doch umgekehrt kann davon keine Rede sein, wie eine aktuelle Studie zeigt: Menschen neigen dazu, Maschinen auszunutzen, ganz ohne Schuldgefühle.
Der LMU-Philosoph Jurgis Karpus, Ph.D., greift zu einem alltäglichen Beispiel, um sein jüngstes Forschungsergebnis zu erläutern: „Stellen Sie sich vor, Sie fahren auf einer engen Straße Auto. Plötzlich bemerken Sie, dass Ihnen in der nächsten Kurve ein selbstfahrendes Auto ohne Insassen entgegenkommt. Werden Sie es vorbeilassen oder einfach selbst weiterfahren?“
In derartigen Situationen verhalten sich Menschen meist freundlich zueinander und lassen den Entgegenkommenden passieren. Sind sie auch gegenüber autonomen Fahrzeugen so rücksichtsvoll und kooperationsbereit?
Jurgis Karpus, wissenschaftlicher Mitarbeiter am Lehrstuhl für Philosophy of Mind der LMU, ist dieser Frage mit einem Team von Wissenschaftlerinnen und Wissenschaftlern der LMU und der Universität London nachgegangen.
Online-Studie zum Umgang mit KI-Systemen
Mit Methoden der verhaltensorientierten Spieltheorie haben sie untersucht, ob sich Menschen im Umgang mit Systemen der Künstlichen Intelligenz (KI) genauso kooperativ verhalten wie gegenüber ihren Mitmenschen. Ihre Ergebnisse sind aktuell in der Fachpublikation iScience veröffentlicht.
Im Rahmen der Studie wurden in Online-Experimenten verschiedene Situationen modelliert, in denen Mensch und Maschine zusammentrafen. „Kooperation hält unsere Gemeinschaft zusammen. Sie erfordert Kompromiss- und Risikobereitschaft, da das Vertrauen, das wir anderen entgegenbringen, immer auch ausgenutzt werden kann. Der Autoverkehr ist dafür ein gutes Beispiel: Wir verlieren etwas Zeit, wenn wir jemandem Vorfahrt gewähren, und sind verärgert, wenn andere es uns nicht gleichtun“, erklärt Jurgis Karpus.
Menschen sind sehr viel weniger bereit, sich einer KI gegenüber reziprok zu verhalten als gegenüber einem Menschen. Sie beuten sogar die „Gutmütigkeit" der Maschine zum eigenen Vorteil aus.
„Unsere Studie zeigt, dass Menschen Maschinen zunächst dasselbe Vertrauen entgegenbringen wie ihren Mitmenschen: Die meisten gehen davon aus, auf Kooperationsbereitschaft zu treffen“, sagt Karpus. Doch dann beginnen die Unterschiede: „Menschen sind sehr viel weniger bereit, sich einer KI gegenüber reziprok zu verhalten als gegenüber einem Menschen. Sie beuten sogar die ,Gutmütigkeit' der Maschine zum eigenen Vorteil aus. Im Autoverkehr würde ein Mensch einem menschlichen Fahrer die Vorfahrt gewähren, nicht jedoch einem selbstfahrenden Auto.“
Im Laufe der Experimente erwies sich dieses Muster als so konsistent, dass in der Studie die Rede von einer „Ausbeutung von Algorithmen“, einer „algorithm exploitation”, ist. „Dieser Widerwillen zur Kooperation mit Maschinen ist eine Herausforderung für die zukünftige Interaktion zwischen Mensch und KI“, sagt Jurgis Karpus.
Die größte Sorge in unserem Forschungsfeld ist bislang, dass Menschen Maschinen nicht vertrauen werden. Wir haben gezeigt: Sie tun es.
Dr. Bahador Bahrami
Anderes Verhalten als gegenüber Mitmenschen
„Kooperation wird durch eine Art wechselseitiger Wette aufrechterhalten: Ich vertraue darauf, dass du nett zu mir bist, und du vertraust darauf, dass ich nett zu dir bin. Die größte Sorge in unserem Forschungsfeld ist bislang, dass Menschen Maschinen nicht vertrauen werden. Wir haben gezeigt: Sie tun es”, sagt Dr. Bahador Bahrami, Neurowissenschaftler an der LMU und Mitautor der Studie.
„Der große Unterschied in ihrem Verhalten, verglichen mit dem gegenüber ihren Mitmenschen, ist allerdings: Sie haben kein Problem damit, Maschinen auszunutzen, und zeigen dabei auch kaum Reue. ”
Wir alle wollen, dass KI vertrauenswürdig ist und sich Menschen gegenüber rücksichtsvoll verhält. Aber es reicht nicht, KI nach diesen Kriterien zu modellieren.
Prof. Ophelia Deroy
Umgang mit KI hat Auswirkungen auf die Gesellschaft
KI-Forschung an der LMU: Beispiele, woran geforscht wird
Professor Ophelia Deroy, Philosophin und Mitautorin der Studie, die zudem am Norwegischen Institut für Friedensforschung in Oslo an den ethischen Implikationen der Integration von Robotersoldaten an der Seite von menschlichen Soldaten forscht, sagt zu den Studienergebnissen:
„Wir alle wollen, dass KI vertrauenswürdig ist und sich Menschen gegenüber rücksichtsvoll verhält. Aber es reicht nicht, KI nach diesen Kriterien zu modellieren. Für den Einzelnen sieht es vielleicht nach einem verzeihlichen Akt des Selbstinteresses aus, wenn wir uns Robotern gegenüber nicht kooperativ verhalten und sie sogar für unsere eigenen Belange ausnutzen. Für die Gesellschaft als Ganzes könnte es allerdings weitreichendere Auswirkungen haben.”
Die Publikation ist online abrufbar: Jurgis Karpus et al.: Algorithm exploitation: humans are keen to exploit benevolent AI. iScience 2021